Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen. Das Gehalt liegt, je nach Erfahrung, bei ca. 77.000 €/Jahr. Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
.------ Erfolgreich abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation Mehrjährige Berufserfahrung im Data-Engineering-Umfeld, idealerweise 8+ Jahre Sehr gute Python-Kenntnisse sowie fundierte Erfahrung mit ETL-Prozessen Gute Java-Kenntnisse (für die Integration in Java-basierte Services); React-Grundverständnis ist von Vorteil Interesse an KI-/AI-Themen oder idealerweise erste praktische Erfahrung in der Zusammenarbeit mit Data-Science/ML-Teams Kenntnisse in ETL-Prozessen und Datenverarbeitung sind wünschenswert (z.
Erfahrung mit relationalen und nicht-relationalen Datenbanken (SQL, No-SQL) Erfahrung mit ETL-Tools und -Frameworks wie Apache Spark, Apache NiFi oder ähnlichen Grundkenntnisse in Big Data-Technologien wie Hadoop, MongoDB, Graph Datenbanken und Vector Datenbanken Kommunikationsfähigkeit, Analytisches Denken, Selbstständigkeit Innovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Du teilst Dein Wissen, unterstützt bei Einarbeitung, Coaching und Betreuung von Consultants, bringst Deine Erfahrung in Best Practices, Templates und technische Leitlinien ein und förderst eine Kultur des gemeinsamen Lernens. Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld.
Du teilst Dein Wissen, unterstützt bei Einarbeitung, Coaching und Betreuung von Consultants, bringst Deine Erfahrung in Best Practices, Templates und technische Leitlinien ein und förderst eine Kultur des gemeinsamen Lernens. Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld.
Dein Profil Du hast ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation mit analytischer Stärke.Du beherrschst Python und Spark idealerweise in Kombination mit Databricks und verfügst über tiefgehende Azure-Kenntnisse.Du bringst Erfahrung im Bereich Infrastructure-as-Code mit, z. B. durch den Einsatz von Terraform.Du hast langjährige Erfahrung in der Entwicklung robuster Datenpipelines mit verschiedenen Quellsystemen.Du arbeitest lösungsorientiert, strukturiert und gerne im Team an komplexen Herausforderungen.
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B. Databricks, Azure Data Lake, Azure DevOps) Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Du verfügst über gute Englisch und Deutschkenntnisse Data-Engineer-m-w-d-Data-Analytics-Platform-Essen
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen. Das Gehalt liegt, je nach Erfahrung, bei ca. 77.000 €/Jahr. Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Das kannst du bei uns MACHEN: Konzeptionieren, Weiterentwickeln und Umsetzen von Integrations- und ETL-Lösungen und den zugehörigen Architekturen auf Basis des Microsoft Azure-StacksAnalysieren und Integrieren neuer Datenquellen sowie kontinuierliches Optimieren der vorhandenen ImplementierungenMitwirken bei Migrationsprojekten und komplexen AuswertungenBetreiben, Monitoren und Deployment der Prozesse im DevOps-PrinzipKommunizieren mit den Fachabteilungen und Mitarbeitenden in strategischen Unternehmensprojekten Das könntest du bei uns EINBRINGEN: Erfolgreich abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder vergleichbare QualifikationAnwendungsbereite Python Kenntnisse, idealerweise Python Data Analysis LibraryKenntnisse im Bereich von Integrations- und Architekturmuster* Erfahrungen mit serviceorientierten Architekturen und MicroservicesDatabricks-Kenntnisse und Erfahrung mit Message Brokern (Kafka, Azure ESB) sind von VorteilTeamfähigkeit sowie strukturiertes und strategisches Arbeiten sowie interkulturelle KompetenzHohe Eigeninitiative sowie ein gute ProblemlösungskompetenzGute Deutsch- und EnglischkenntnisseRegelmäßige Präsenz am Standort Darauf kannst du dich bei uns FREUEN: Wettbewerbsfähiges Gehalt zzgl.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Architektur-Design: Du konzipierst und implementierst moderne Datenplattform-Architekturen in der Cloud auf AWS, Azure oder GCP mit Fokus auf Snowflake.Data Engineering: Du entwickelst modulare und testbare Transformations-Pipelines mit dbt und arbeitest nach Best Practices wie Versionierung, CI/CD und automatisierten Tests.Datenmodellierung: Du erstellst Datenmodelle nach Data Vault 2.0, Star-Schema oder vergleichbaren Modellierungstechniken zur strukturierten Abbildung fachlicher Anforderungen.End-to-End Orchestrierung: Du integrierst Ingestion-Tools wie Fivetran oder Airbyte und stellst die Workflow-Orchestrierung mit Airflow oder Dagster sicher.Consulting und Coaching: Du berätst Kunden bei der Auswahl geeigneter Komponenten und begleitest die Migration von Legacy-Systemen in die Cloud.Qualitätssicherung: Du stellst durch automatisierte Datenqualitätsprüfungen und klare Governance-Strukturen eine hohe Datenverlässlichkeit sicher. Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Was Dich erwartet Aufbau und Pflege von Daten- und KI-Workflows in Cloud- oder On-Prem-UmgebungenUnterstützung bei der Automatisierung von Trainings- und DeploymentschrittenAnalyse und Aufbereitung von Fahrzeug- und ProzessdatenZusammenarbeit mit Data Scientists und SoftwareentwicklernWeiterentwicklung bestehender Datenplattformen und Analysewerkzeuge Das bringst Du mit Erfahrung in Datenverarbeitung, Cloud- oder SoftwareprojektenKenntnisse in einer Programmiersprache (z. B. Python, Java, C# oder vergleichbar)Interesse an KI, Machine Learning und modernen DevOps-MethodenAnalytisches Denken, Lernbereitschaft und Freude an interdisziplinären TeamsSehr gute Deutsch- und Englischkenntnisse Was wir bieten Attraktive Vergütung: Ausgezeichnetes Gehaltspaket & täglicher KantinenzuschussModerne Arbeitskultur: New Work ist für uns Normalität (z.B.
Qualifikationen Du hast ein abgeschlossenes Studium in (Wirtschafts-)Mathematik, (Wirtschafts-)Informatik, Physik, Statistik oder einem vergleichbaren quantitativen Fach.Du bringst mindestens 5 Jahre Erfahrung im Aufbau/Betrieb von DWHs, in Datenanalyse und Anforderungsmanagement mit.Zudem beherrschst du Methoden der Datenmodellierung und kennst Microsoft Azure (inkl.
Qualifikationen Du hast ein abgeschlossenes Studium in (Wirtschafts-)Mathematik, (Wirtschafts-)Informatik, Physik, Statistik oder einem vergleichbaren quantitativen Fach.Du bringst mindestens 5 Jahre Erfahrung im Aufbau/Betrieb von DWHs, in Datenanalyse und Anforderungsmanagement mit.Zudem beherrschst du Methoden der Datenmodellierung und kennst Microsoft Azure (inkl.
Du möchtest Deine Erfahrung nicht nur vertiefen, sondern auch weitergeben – und mit anderen gemeinsam echte Datenmehrwerte erzielen? Dann gestalte mit uns die nächste Etappe – persönlich, kollegial und wirksam.
Unsere Teams arbeiten länderübergreifend daran, unsere Kunden in der datengetriebenen Weiterentwicklung ihrer Geschäftsmodelle zu unterstützen. Bei uns bringst Du Deine Erfahrung gezielt ein – und entwickelst sie weiter, zusammen mit Menschen, die Wissen teilen, Verantwortung leben und Zukunft gestalten. Du möchtest Deine Erfahrung nicht nur vertiefen, sondern auch weitergeben – und mit anderen gemeinsam echte Datenmehrwerte erzielen?
VBA, Skripte, Schnittstellen) Analyse, Strukturierung und Optimierung großer, heterogener Datenmengen aus unterschiedlichen Systemen Einsatz und Weiterentwicklung von KI-gestützten Ansätzen zur Datenanalyse, Prozessunterstützung und Entscheidungsfindung Erstellung und Pflege von Prozess-, System- und Automatisierungsdokumentation Ihr Profil: Sie können ein abgeschlossenes Studium im Bereich Wirtschaftsingenieurwesen, Wirtschaftsinformatik oder ähnliches vorweisen Sie sind versiert im Umgang mit großen Datenmengen, haben Erfahrung in Datenstrukturierung und -optimierung und konnten idealerweise bereits erste Erfahrung mit dem Einsatz künstlicher Intelligenz sammeln Sie haben ein Grundverständnis technischer und industrieller Abläufe Sie sind vertraut mit dem ERP-System SAP (Kenntnisse im Modul MM von Vorteil) Sie besitzen gute Kenntnisse in VBA, JSON oder vergleichbaren Programmiersprachen Sie haben Spaß am Analysieren und Optimieren von Prozessen und besitzen die nötige Auffassungsgabe, um komplexe Zusammenhänge zu verstehen Sie verfügen über sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Ihr Kontakt: Désirée Bleier Teamlead HR Business Partner
Fundierte Programmierkenntnisse (vorzugsweise Python), Datenbank-Knowhow (SQL sowie NoSQL) und Erfahrung im API-Design (REST sowie GraphQL), der Systemintegration und der Anbindung diverser Datenquellen an KI-Modelle sind von Vorteil.
Du hast ein Studium der (Wirtschafts-)Informatik, Mathematik oder eine vergleichbare Qualifikation abgeschlossen. Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit. Sehr gute Kenntnisse in Python und SQL zeichnen dich aus.
Je nach Qualifizierung und Erfahrung beläuft sich das Gehalt dieser Stelle auf bis zu 95.000 Euro Ihr Kontakt Ansprechpartner Lisa Maria Kus Referenznummer 851963/1 Kontakt aufnehmen E-Mail: lisa.maria.kus@hays.de Anstellungsart Festanstellung durch unseren Kunden
Je nach Qualifizierung und Erfahrung beläuft sich das Gehalt dieser Stelle auf bis zu 95.000 Euro Ihr Kontakt Ansprechpartner Lisa Maria Kus Referenznummer 851963/1 Kontakt aufnehmen E-Mail: lisa.maria.kus@hays.de Anstellungsart Festanstellung durch unseren Kunden
Unsere vielseitigen und anspruchsvollen Kundenprojekte warten auf dich, auf deine Leidenschaft für KI und Softwareentwicklung, auf dein ganzes Wissen und deine Erfahrung! Du arbeitest eng mit Kunden und funktionsübergreifenden Teams zusammen, um geeignete KI-Anwendungsfälle zu identifizieren, zu entwickeln und eine nahtlose Integration von KI-Lösungen in Softwaresysteme sicherzustellen.Du entwickelst Data-Pipelines, Data-Warehousing- und ETL-Prozesse, um eine effiziente Handhabung und Verarbeitung großer Datensätze für KI-Anwendungen zu gewährleisten.Du verarbeitest und analysierst Daten zur Unterstützung der Entwicklung von KI-Modellen und visualisierst diese, um Muster zu erkennen sowie die Datenqualität sicherzustellen.Du konzipierst und entwickelst KI-basierte Softwarelösungen in einem agilen Umfeld unter Nutzung deiner Expertise in KI- und Softwareentwicklung.Du überwachst KI-Lösungen, um eine kontinuierliche Leistungsfähigkeit sicherzustellen.Du bleibst auf dem neuesten Stand der Entwicklungen im Bereich KI und förderst KI-Initiativen, indem du dein Wissen mit Teams und Communities teilst.Du unterstützt den technischen Vertrieb mit deiner fachlichen Expertise.Du hast einen Abschluss oder relevante Erfahrung in Informatik mit Spezialisierung auf KI.Du verfügst über fundiertes Wissen in KI-Technologien, Datenanalyse und Statistik.
Projektumsetzung und Implementierung: Du planst und implementierst Oracle Exadata Infrastrukturen On-Premises sowie in hybriden Umgebungen mit Oracle Cloud Infrastructure.Oracle Exadata: Du installierst, konfigurierst und administrierst Oracle Datenbanken auf Exadata-Systemen in Standalone- und Cluster-Architekturen.Hochverfügbarkeit und Migration: Du setzt HA-Lösungen mit Oracle RAC und Data Guard um und begleitest komplexe Migrations- und Konsolidierungsprojekte.Performance und Tuning: Du führst detaillierte Performance-Analysen auf Exadata-Plattformen durch und optimierst Datenbanken, SQL-Statements und PL/SQL gezielt.Backup und Recovery: Du implementierst Backup- und Recovery-Strategien mit RMAN und entwickelst tragfähige Betriebskonzepte für produktive Umgebungen.Betrieb und Rufbereitschaft: Du unterstützt im 2nd- und 3rd-Level-Support, analysierst technische Störungen strukturiert und übernimmst Rufbereitschaften in einem klar geregelten Rotationsmodell. Das bringst du mit Oracle Exadata Erfahrung: Du verfügst über mehrjährige Berufserfahrung im Oracle-Umfeld mit klarer Projekterfahrung auf Oracle Exadata Systemen.Oracle Technologien: Du bringst fundierte Kenntnisse in Oracle RAC, Data Guard, RMAN und Enterprise Manager Cloud Control mit.Datenbank Administration: Du hast umfassende Erfahrung in Installation, Konfiguration und Betrieb von Oracle Datenbanken in produktiven Umgebungen.Cloud und Linux: Du hast praktische Erfahrung mit Oracle Cloud Infrastructure sowie sehr gute Kenntnisse in Linux, idealerweise auch in Unix oder Windows.SQL und Scripting: Du verfügst über gute Kenntnisse in SQL, PL/SQL und Shell-Scripting.Betrieb und Kommunikation: Du arbeitest sicher im SLA- und ITIL-orientierten Umfeld, bist bereit zur Teilnahme an einer geregelten Rufbereitschaft, kommunizierst sehr gut auf Deutsch und projektsicher auf Englisch und überzeugst durch ein professionelles Auftreten.
B2) Bonuswissen: Erfahrung mit Python oder GoLang Das Mindestgehalt für diese Position liegt – abhängig von Qualifikation und Erfahrung – bei € 60.000,-- brutto pro Jahr.
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das Projekt Analyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen Konzepten Abstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BI Containertechnologien (Docker, Kubernetes) Python, Git, CI/CD ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Databricks, Azure Data Lake, Azure DevOps) Ein hohes Maß an Selbständigkeit, Sorgfalt und Qualitätsbewusstsein Erfahrung mit der Arbeit in agilen Scrum Teams Data-Engineer-m-w-d-Operational-Reporting-Essen
Databricks, Azure Data Lake, Azure DevOps) Ein hohes Maß an Selbständigkeit, Sorgfalt und Qualitätsbewusstsein Erfahrung mit der Arbeit in agilen Scrum Teams Data-Engineer-m-w-d-Reporting-Excellence-Essen
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das ProjektAnalyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen KonzeptenAbstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BIContainertechnologien (Docker, Kubernetes)Python, Git, CI/CDETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche BezahlungBetriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du erarbeitest Lösungen für die Weiterentwicklung der internationalen Business Intelligence Strategie in Bezug auf BI Architektur und den Self Service Ansatz für alle ALDI Nord Länder auf Basis führender Microsoft Cloud Technologie Du unterstützt die Projektteams bei der Konzeption und Implementierung eines ganzheitlichen BI und Analytics Lösungsansatz, von der Datenbereitstellung bis zum interaktiven Analyse Dashboard Du erarbeitest gemeinsam mit deinen Kollegen geeignete Governance Prozesse für die internationale Nutzung von Daten für alle ALDI Nord Länder Du führst Teamkollegen auf fachlicher Ebene und bist Ansprechpartner bei konzeptionellen sowie fachbereichsübergreifenden Architekturfragen für aktuelle und zukünftige Business Intelligence Lösungen Du unterstützt den Ausbau und die Weiterentwicklung der Analyseangebote auf der internationalen Analyticsplattform Du unterstützt deine Teamkollegen sowie die Kollegen in den Fachbereichen durch Beratung und Schulungen bei der Interpretation von Daten und Informationen Du evaluierst neueste Technologien und Features, erprobst diese in Form von Proof of Concepts und führst sie als neue (Teil )Produkte für die Data & Analytics Plattform ein Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in Wirtschaftswissenschaften, Statistik, Business Intelligence, Data Analytics oder anderen einschlägigen Bereichen hast du erfolgreich abgeschlossen 5+Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Governance oder einer vergleichbaren Tätigkeit (gerne im Kontext einer Unternehmensberatung) und idealerweise Erfahrung in der fachlichen Führung von Teamkollegen Du verfügst über weitreichende Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem mit sowie ausgeprägte Erfahrungen mit Business Intelligence Tools wie Microsoft Power BI, Tableau oder Qlik Sense Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Senior-Business-Intelligence-Engineer-Business-Intelligence-Architekt-m-w-d-Essen
Werde Teil unseres Teams und trage dazu bei, durch innovative Datenarbeit echten Mehrwert zu schaffen. Du bringst Deine mehrjährige Erfahrung als Data Engineer im Business‑Intelligence‑Team auf Group‑Ebene ein und unterstützt bei der Weiterentwicklung einer Business-Intelligence-Plattform.
*Geschlecht (d/m/w) egal, Hauptsache luftfahrtbegeistert✈ Abgeschlossenes Studium in Informatik, Datenverarbeitung oder Nachrichtentechnik mit einschlägiger Berufserfahrung ✈ Mehrjährige Erfahrungen bei der Entwicklung und Einführung von Architekturvorgaben, der Umsetzung von Data-Governance-Ansätzen sowie beim Aufbau einer Datenorganisation ✈ Fundierte Kenntnisse in modernen Datenarchitekturen und Datenmodellen, v.a. auch in Cloud-Technologien und API-Architekturen ✈ Idealerweise Kenntnisse in SWIM (System Wide Information Management) ✈ Erfahrung im Einsatz von Werkzeugen, Tools und Anwendungen für Datenmanagement, -governance und -modellierung ✈ Erfahrung in Projektleitung und Arbeitsgruppen, auch im internationalen Umfeld ✈ Verhandlungssichere Englischkenntnisse in Wort und Schrift32 Tage bezahlte Freistellung (u.a.
Tests und Git-Workflow Sehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung) Praktische Erfahrung mit SQL und Datenmodellierung Erfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen Encodings Sichere Zusammenarbeit über Git (Pull Requests, Branching) Erfahrung mit Vektor-Datenbanken (z.B.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z.
Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Tests und Git-WorkflowSehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung)Praktische Erfahrung mit SQL und DatenmodellierungErfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen EncodingsSichere Zusammenarbeit über Git (Pull Requests, Branching)Erfahrung mit Vektor-Datenbanken (z.B.
Qualifikationen Du hast ein abgeschlossenes Studium in (Wirtschafts-)Mathematik, (Wirtschafts-)Informatik, Physik, Statistik oder einem vergleichbaren quantitativen Fach.Du bringst mindestens 5 Jahre Erfahrung im Aufbau/Betrieb von DWHs, in Datenanalyse und Anforderungsmanagement mit.Zudem beherrschst du Methoden der Datenmodellierung und kennst Microsoft Azure (inkl.
Auch die Zusammenarbeit mit anderen Teams zur Nutzung von Cloud‑Services wie S3, IAM, VPC, Route Tables, Lambda, SNS sowie SQS gehört hierbei zu Deinem Aufgabenbereich. Das wünschen wir uns: Mehrjährige Erfahrung im Bereich Software Developement oder einer vergleichbaren Rolle in der Entwicklung, dem Deployment oder dem Betrieb von Integrationen innerhalb einer Enterprise-Landschaft Idealerweise Erfahrung mit der Mulesoft Integration Platform sowie dem MuleSoft Certified Developer und MuleSoft Certified Architect Erfahrung mit Aufbau und Nutzung generischer APIs und entsprechender API-getriebener Landschaften Sehr gutes Verständnis und sicherer Umgang mit API Contracts (RAML/OAS) und Message Queues (z.
B. RDFlib, RDF4J, Apache Jena)Erfahrung im Datenengineering (ETL-Prozesse, Data Pipelines, z. B. RML, Kafka)Sicherer Umgang mit Datenbanken, Datenmodellierung und SQLErfahrung mit Qualitätssicherung, Validierung und Performance-Optimierung von Wissensgraphen (z.
Intellij, Maven, Git, Docker) Sehr gute Kenntnisse in der Entwicklungssprache Java und Spring Boot Mehrjährige Erfahrung mit aktuellen Datenbanken (bspw. MySQL) Grundlegendes Wissen auf dem Gebiet der Frontendentwicklung. Ideal auf Basis von Java, Schwerpunkt Vaadin (14+) Fundierte Kommunikations- und Präsentationsfähigkeiten sowie schnelle Auffassungsgabe und überdurchschnittliche Analysefähigkeiten Selbständige Priorisierung von Aufgaben Arbeiten nach Scrum Hohe Organisationsfähigkeit Angebot Flexible Arbeitszeiten Home-Office / flexibles Arbeiten Firmenwagen Vermögenswirksame Leistungen Betriebliche Altersvorsorge Weiterbildungsprogramme Gesundheitsförderung Sport- und Freizeitangebote Mitarbeiterrabatte Mitarbeiterhandy Mitarbeiterevents
Power BI Du evaluierst neueste Technologien und Features, erprobst diese in Form von Proof of Concepts und führst sie als neue (Teil )Produkte für die Data & Analytics Plattform ein Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in Wirtschaftswissenschaften, Statistik, Business Intelligence, Data Analytics oder anderen einschlägigen Bereichen hast du erfolgreich abgeschlossen Du hast mind. 5 Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Engineering oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Du verfügst über weitreichende Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem mit sowie ausgeprägte Erfahrungen mit Business Intelligence Tools wie Microsoft Power BI, Tableau oder Qlik Sense Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Du verfügst über gute Englisch und Deutschkenntnisse Business-Intelligence-Engineer-m-w-d-Essen